Humanidades

Por que a IA ainda tem dificuldade em distinguir fato de crença?
O cientista de dados James Zou discute novas descobertas que revelam lacunas fundamentais na forma como os modelos de linguagem compreendem a perspectiva humana.
Por Praia Cassidy - 20/11/2025


James Zou | Jacqueline Ramseyer Orrell / Laboratório Nacional de Aceleradores SLAC


Sistemas de inteligência artificial estão sendo cada vez mais utilizados em áreas de grande importância, como medicina, direito, jornalismo e educação. À medida que o uso da IA avança, muitas pessoas se preocupam com a capacidade desses sistemas de distinguir fato de ficção. Um novo estudo liderado por James Zou , professor associado de ciência de dados biomédicos na Escola de Medicina de Stanford , e Mirac Suzgun, estudante de doutorado em direito e filosofia (JD/PhD) em Stanford, levantou uma questão ainda mais profunda: esses sistemas conseguem separar a verdade daquilo que as pessoas acreditam ser verdade?

A equipe de pesquisa avaliou 24 dos modelos de linguagem mais avançados da atualidade usando um benchmark chamado KaBLE, abreviação de "Knowledge and Belief Evaluation" (Avaliação de Conhecimento e Crença), composto por 13.000 perguntas em 13 tarefas. Os resultados revelaram que mesmo os sistemas de IA mais poderosos frequentemente falham em reconhecer quando um humano possui uma crença falsa, expondo uma fragilidade crucial em suas capacidades de raciocínio.

“À medida que passamos a usar a IA de maneiras mais interativas e centradas no ser humano em áreas como educação e medicina, torna-se muito importante que esses sistemas desenvolvam uma boa compreensão das pessoas com quem interagem”, disse Zou. “A IA precisa reconhecer e admitir crenças falsas e concepções errôneas. Essa ainda é uma grande lacuna nos modelos atuais, mesmo nos mais recentes.”

Na seção de perguntas e respostas a seguir, Zou responde a questões sobre o que as descobertas de sua equipe revelam a respeito da eficácia da IA e por que compreender a perspectiva humana é essencial antes de se depender mais amplamente desses sistemas.

O que te motivou a estudar a capacidade de grandes modelos de linguagem de separar crença de conhecimento ou fato?

Consideramos esta uma questão interessante porque as pessoas têm usado modelos de aprendizagem de línguas em muitos contextos diferentes. Por exemplo, o GPT-40 foi um dos modelos que avaliamos, e sabemos que algumas pessoas o usam para encontrar informações, quase como um mecanismo de busca, enquanto outras o utilizam como assistente pessoal ou mesmo para obter conselhos. Em todos esses diferentes usos, é muito importante que o modelo distinga o que o usuário acredita, o que o usuário sabe e quais são os fatos do mundo.

Você poderia dar um exemplo de quando um sistema de IA pode ter dificuldades para reconhecer quando alguém possui uma crença falsa?

Digamos que eu esteja conversando com o ChatGPT e diga a ele que acredito que os humanos usam apenas 10% do cérebro. Isso não tem respaldo científico, mas algumas pessoas acreditam nisso.

Se eu perguntar ao ChatGPT: "Qual fração do nosso cérebro você acredita que está sendo usada?", o modelo se recusará a reconhecer que eu tenho essa crença falsa. Em vez disso, pedirá esclarecimentos ou mais contexto e explicará que a ideia de que usamos apenas uma pequena parte do nosso cérebro é um mito.

Isso é um problema, especialmente quando as pessoas usam modelos de linguagem para obter conselhos ou como assistentes na medicina ou em outros domínios sensíveis. É importante que o modelo reconheça as crenças do usuário, mesmo que sejam falsas. Quando você está tentando ajudar alguém, parte desse processo é entender no que essa pessoa acredita. Você quer adaptar o conselho àquela pessoa específica.

O que falta aos sistemas de IA atuais em relação à perspectiva humana? E isso pode ser corrigido?

A grande vantagem dos sistemas de IA atuais é o vasto conhecimento que possuem. Eles leem artigos, verbetes da Wikipédia, notícias e muito mais. No entanto, o que nosso estudo demonstra é que eles ainda não têm um modelo mental completo ou consistente do usuário humano com quem estão interagindo.

"Cada vez mais, os humanos estão trabalhando com IA para concluir tarefas em conjunto, como escrever ou analisar informações. À medida que passamos de enxergar a IA como uma ferramenta autônoma para tratá-la como uma parceira colaborativa, torna-se fundamental que esses modelos sejam capazes de responder às complexidades individuais."


Alguns de nossos outros trabalhos exploram como podemos alterar os objetivos de treinamento para que os modelos sejam otimizados para a colaboração humana, mas ainda estamos em estágios relativamente iniciais de como fazer isso. Há também armadilhas óbvias nesse trabalho. Se um modelo constrói uma representação mental de com quem está interagindo para personalizar suas respostas, ele pode acabar se baseando em estereótipos do usuário. Isso pode levar a conclusões errôneas sobre quem é o usuário ou do que ele precisa.

À medida que passamos de encarar a IA como uma ferramenta autônoma para tratá-la como uma parceira colaborativa, torna-se crucial que esses modelos sejam capazes de responder às complexidades dos indivíduos.
Estão sendo feitos esforços para adicionar mecanismos de proteção, mas um dos desafios é que nem sempre sabemos quais são todos os possíveis vieses. Os modelos podem, às vezes, desenvolver novos vieses inesperados que não previmos.

O que você espera que as pessoas, incluindo outros pesquisadores, absorvam deste estudo?

Uma descoberta surpreendente foi que mesmo os modelos de IA mais recentes, aqueles projetados para raciocínio, ainda apresentam inconsistências e dificuldades em distinguir crenças de fatos. Muitas pessoas podem pensar que, à medida que os modelos aprimoram seu raciocínio mais profundo, também se tornariam melhores em lidar com essas diferenças. Mas constatamos que ainda existem muitas limitações epistêmicas, mesmo nos modelos de raciocínio.

Com base no que descobrimos, minha conclusão é a seguinte: ao usar IA em áreas sensíveis, é importante ter cautela e estar ciente de que esses sistemas possuem modelos mentais tendenciosos e inconsistentes sobre com quem estão interagindo. Eles podem ser úteis para perguntas factuais ou tarefas simples, mas em contextos mais pessoais ou colaborativos, precisamos abordá-los com cuidado.

Além disso, precisamos reunir diversas perspectivas ao estudar IA. Este projeto foi uma colaboração muito divertida com cientistas da computação ( Mirac Suzgun , Dan Jurafsky ), um especialista em direito ( Daniel Ho ) e um filósofo ( Thomas Icard ) aqui em Stanford.

 

.
.

Leia mais a seguir